- Supercomputer: Großrechenanlage
- Supercomputer: GroßrechenanlageTrotz der in den letzten Jahren enorm gestiegenen Leistungsfähigkeit allgemein verfügbarer Computer gibt es nach wie vor eine Reihe von Anwendungen, deren Anforderungen an Rechenleistung und Speicherplatz um ein Vielfaches über der von diesen Standardcomputern zur Verfügung gestellten Leistung liegen. Zu diesen »Grand Challenges« zählen insbesondere technisch-wissenschaftliche Simulationen, wie z.B. Klimavorhersage, Optimierung turbulenter (chaotischer, stark verwirbelter) Verbrennungsvorgänge, die Analyse des menschlichen Genoms (im Chromosomensatz vorhandener Erbanlagen) oder Berechnung bestimmter Größen in der Hochenergiephysik.Architektur der SupercomputerBei der Konstruktion von Höchstleistungsrechnern für die genannten Anwendungen spielen zwei Prinzipien eine wesentliche Rolle: Parallelisierung und Vektorisierung.Bei Parallelrechnern arbeiten mehrere Prozessoren gleichzeitig an einem Problem. Man unterscheidet hierbei Parallelrechner mit verteiltem Speicher, bei denen jeder Prozessor auf einen eigenen lokalen Speicher zugreift und Daten zwischen den Prozessoren über ein Verbindungsnetzwerk ausgetauscht werden, und Parallelrechner mit gemeinsamem Speicher (SMP). Letztere haben einen globalen Speicher, auf den alle Prozessoren zugreifen können. Dies führt zu einer wesentlich einfacheren Programmierung dieser Rechner, hat aber auch zur Folge, dass die Zahl der Prozessoren nicht sehr hoch sein kann. Zurzeit (1998) werden Systeme dieser Architektur mit bis zu 128 Prozessoren angeboten, wogegen Parallelrechner mit verteiltem Speicher mit mehreren Tausend Prozessoren eingesetzt werden. Für diese ist daher auch die Bezeichnung massiv parallele Rechnersysteme (MPP) üblich.Das Prinzip der Vektorisierung wurde erstmalig 1976 konsequent in der »Cray 1«, die von Seymour Cray entwickelt wurde, umgesetzt. Die Prozessoren dieser Rechnerart besitzen spezielle Ausführungseinheiten (»Pipelines«) für die Verarbeitung mathematischer Operationen mit Vektoren. Hierbei wird die Operation in möglichst gleich lange Teiloperationen zerlegt und dann wie in einem Montagefließband hintereinander in den Stufen der Pipeline verarbeitet. Damit können die Teiloperationen für verschiedene Vektorelemente in unterschiedlichen Stufen der Pipeline gleichzeitig durchgeführt werden. Der zeitliche Gewinn einer Pipelineverarbeitung langer Vektoren gegenüber der rein sequenziellen (elementweise nacheinander) Abarbeitung ist damit gleich der Stufenzahl der Pipeline. Der große Erfolg dieser Rechnerarchitektur basiert auf der Struktur vieler technisch-wissenschaftlicher Anwendungen, bei denen Vektoroperationen einen großen Teil der Rechenzeit ausmachen, und der Möglichkeit, die Anpassung von Programmen an diese Rechner durch vektorisierende Compiler (Programme zur Übersetzung einer Programmiersprache in einen Maschinencode) automatisch vornehmen zu lassen.Die Kombination beider Architekturprinzipien (Parallelisierung und Vektorisierung) führt zu parallelen Vektorrechnern (PVP), bei denen mehrere Vektorprozessoren in einem Parallelrechner, typischerweise mit gemeinsamem Speicher, verwendet werden. Im Gegensatz zu den PVPs können bei massiv parallelen Rechnern Bausteine aus dem PC- und Workstationen-Bereich eingesetzt werden. Vor dem Hintergrund steigender Kosten für die Entwicklung und Herstellung von Prozessoren stellt dies einen entscheidenden Vorteil dar, der aber nicht unbedingt bestehen bleiben wird, da einige Hersteller bereits an Prozessoren mit Vektoreinheiten für den Massenmarkt arbeiten. Die nächste Supercomputergeneration wird von SMP-Clustern dominiert werden, bei denen mehrere SMPs, ähnlich den Prozessoren in einem MPP, durch ein schnelles Netzwerk zu einem Rechnersystem verbunden sind.LeistungsentwicklungEin insbesondere im Zusammenhang mit wissenschaftlichen Anwendungen häufig verwendetes Maß für die Rechenleistung von Computersystemen ist die Anzahl der ausführbaren Fließkommaoperationen pro Sekunde (Flop/s). Moderne PCs leisten etwa 100 MFlop/s (= 100 × 106 Flop/s), so viel wie 1976 eine »Cray 1«. Eine Leistung von einem GFlop/s (= 109 Flop/s) wurde erstmalig 1985 von der »Cray 2« erreicht. Der derzeit (1998) schnellste Supercomputer ist der bei den Sandia National Laboratories installierte massiv parallele ASCI-Red, der eine Rechenleistung von mehr als einem TFlop/s (= 1012 Flop/s) erzielt. Dieser Rechner besitzt 4536 Rechenknoten, die mit je zwei Pentium Pro-Prozessoren bestückt sind, und einen verteilten Hauptspeicher von insgesamt 567 GBytes. Die Bauelemente des ASCI-Red sind auf 85 schrankartige Gehäuseeinheiten verteilt, die zusammen eine Stellfläche von etwa 150 Quadratmetern belegen.
Universal-Lexikon. 2012.